肌电图(EMG)数据已被广泛采用作为指导人类机器人协作的直观界面。实时检测人类掌握意图的主要挑战是从手动运动中识别动态EMG。先前的研究主要实施了稳态EMG分类,并在动态情况下具有少量的掌握模式,这些模式不足以产生有关实践中肌肉活动变化的差异化控制。为了更好地检测动态运动,可以将更多的EMG变异性集成到模型中。但是,只有有限的研究集中于这种动态抓紧运动的检测,而对非静态EMG分类的大多数现有评估要么需要监督运动状态的地面真相,要么仅包含有限的运动学变化。在这项研究中,我们提出了一个将动态EMG信号分类为手势的框架,并使用一种无​​监督的方法来检查不同运动阶段的影响,以细分和标记动作转变。我们从大型手势词汇中收集和利用了具有多种动态动作的大型手势词汇的数据,以基于掌握动作的常见序列编码从一个抓握意图到另一个掌握的过渡。随后根据动态EMG信号构建了用于识别手势标签的分类器,不需要对运动运动的监督注释。最后,我们使用来自不同运动阶段的EMG数据评估了多种培训策略的性能,并探讨了每个阶段揭示的信息。所有实验均以实时样式进行评估,并随着时间的推移的性能过渡。
translated by 谷歌翻译
目的:对于下臂截肢者,机器人假肢承诺将重新获得日常生活活动的能力。基于生理信号(例如肌电图(EMG))的当前控制方法容易由于运动伪影,肌肉疲劳等导致不良的推理结果。视觉传感器是有关环境状态的主要信息来源,可以在推断可行和预期的手势中发挥至关重要的作用。但是,视觉证据也容易受到其自身的伪像,最常由于对象阻塞,照明变化等。使用生理和视觉传感器测量的多模式证据融合是一种自然方法,这是由于这些模态的互补优势。方法:在本文中,我们提出了一个贝叶斯证据融合框架,用于使用眼部视频,眼睛凝视和来自神经网络模型处理前臂的EMG的掌握意图推理。当手接近对象以掌握对象时,我们将个人和融合性能分析为时间的函数。为此,我们还开发了新颖的数据处理和增强技术来训练神经网络组件。结果:我们的结果表明,相对于EMG和视觉证据,平均而言,融合会提高即将到来的GRASP类型分类准确性,而在触及阶段则提高了13.66%和14.8%的融合,从而单独地和视觉证据,总体融合精度为95.3%。结论:我们的实验数据分析表明,EMG和视觉证据表明互补的强度,因此,多模式证据的融合可以在任何给定时间胜过每个单独的证据方式。
translated by 谷歌翻译